随机梯度下降(SGD)由于其计算效率而被广泛用于深度学习,但对为什么SGD的性能如此出色的完全理解仍然是一个重大挑战。从经验上观察到,损失功能的大多数特征值在过度参数的深神经网络的损失景观上接近零,而只有少数特征值大。零特征值表示沿相应方向的零扩散。这表明最小值选择的过程主要发生在与Hessian最高特征值相对应的相对较低的子空间中。尽管参数空间非常高,但这些发现似乎表明SGD动力学可能主要存在于低维歧管上。在本文中,我们采取了一种真正的数据驱动方法,以解决对高维参数表面的潜在深入了解,尤其是通过分析通过SGD或任何其他任何其他数据来追溯到SGD所追踪的景观的理解,尤其是对景观的了解。为此,优化器为了发现优化景观的(本地)低维表示。作为探索的车辆,我们使用R. Coifman和合着者引入的扩散图。
translated by 谷歌翻译